La industria musical se moviliza contra la violación de derechos
El acuerdo entre Sony Music y Universal con SoundPatrol ha levantado revuelo en la industria musical. Esta startup, creada por expertos en aprendizaje automático y propiedad intelectual, ha desarrollado un sistema de “huellas digitales neuronales”. Su función principal es detectar similitudes no solo exactas, sino también estilos y estructuras en las canciones.
A diferencia de métodos tradicionales como el Content ID de YouTube, que se enfoca solo en coincidencias exactas, esta tecnología es capaz de identificar influencias más profundas. Es importante entender que la IA no siempre copia de manera literal; a menudo reinterpreta y mezcla, lo cual ha llevado a los sellos a buscar herramientas que puedan proteger sus derechos.
El desafío de promover el uso responsable de la IA
Las grandes discográficas tienen un interés claro: conseguir evidencia técnica que respalde sus reclamos legales y frene el uso indebido de voces y melodías protegidas. Si SoundPatrol logra escalar su tecnología, podría convertirse en una pieza clave en la batalla que las discográficas llevan adelante contra la IA Generativa en defensa de los derechos de autor.
Además, la solidaridad entre estas corporaciones se vuelve casi instinctiva cuando enfrentan un enemigo que puede afectar sus ganancias. Por ejemplo, Spotify ha tomado medidas drásticas al eliminar aproximadamente 75 millones de canciones “spam”, una cifra que resalta el tamaño de su catálogo de unas 100 millones de pistas. Muchas de estas canciones eran creadas de forma masiva por IA, con títulos manipulados para burlar los algoritmos de recomendación.
La compañía explicó que se trataba de intentos de acumular reproducciones falsas para obtener regalías. Como respuesta, se implementaron nuevas normas: límites en las subidas masivas, controles automáticos más estrictos y ajustes en los criterios de monetización. “Queremos apoyar a quienes usan la IA de manera responsable, no a quienes abusan de ella”, aclararon desde Spotify.
Sin embargo, muchos músicos independientes ven esta situación de manera diferente. Argumentan que la cantidad de eliminaciones es reflejo de la saturación que ha alcanzado la plataforma debido a sus propias políticas. Así, las voces críticas también emergen en medio de esta controversia, en la que el acuerdo entre UMG y Sony con SoundPatrol intenta llevar la delantera.
Los riesgos de la carrera tecnológica
Por otro lado, hay quienes advierten sobre la posibilidad de una carrera armamentista tecnológica sin un fin claro. A medida que los detectores de fraude se vuelven más sofisticados, los generadores de música también lo hacen, creando un ciclo sin fin. Los expertos en programación alertan que los modelos de IA pueden adaptar las estructuras musicales para evadir las detecciones, complicando aún más el panorama.
Un ejemplo representativo es NVIDIA, que recientemente decidió invertir en ElevenLabs, una startup de IA que trabaja en síntesis de voz de alta calidad en más de 70 idiomas. En agosto, lanzaron Eleven Music, una plataforma que genera música con IA y que cuenta con acuerdos para utilizar canciones preautorizadas, evitando conflictos de propiedad intelectual.
Sin embargo, esta situación también crea preocupaciones sobre los falsos positivos. Existen temores de que canciones legítimas sean eliminadas simplemente porque se parecen a otras, aun sin intención de copia. Este dilema cobra más peso si consideramos que el poder de decidir qué es considerado “spam” podría quedar en manos de unas pocas empresas, favoreciendo quizás la censura o el dominio de los grandes sellos.
La desprotección de los músicos independientes
Para los artistas independientes, esto plantea un dilema particular. Por un lado, la IA puede ser una herramienta creativa valiosa, ya que reduce los costos de producción y permite experimentar con nuevos sonidos. Pero, por otro lado, enfrentan la competencia contra un océano de música sin valor artístico, y en el peor de los casos, podrían ver su estilo o voz clonados en temas falsos.
Los especialistas coinciden en que es crucial garantizar el acceso a herramientas de verificación y estándares de transparencia para todos, no solo para los gigantes de la industria. Además, queda un problema aún más grande sin solución: el uso de obras protegidas para entrenar modelos de IA sin autorización.
El escenario legal se vuelve más complejo con juicios en Estados Unidos y Europa que apuntan a compañías de IA. Aun así, las discográficas sostienen que crear un sistema de referencia compartido podría ayudar a establecer estándares globales de verificación que prevengan procedimientos ilegales.